- AI-modellen die geen enkele fout mogen maken, kunnen compleet nutteloos worden, zegt mede-oprichter Jared Kaplan van softwarebedrijf Anthropic.
- Kaplan stelt dat gebruikers sporadische foutjes van een AI-chatbot voor lief moeten nemen.
- Dat is opmerkelijk, aangezien Anthropic bij zijn eigen AI-modellen zwaar inzet op veilige, betrouwbare en ethisch verantwoorde toepassingen van artificial intelligence.
- Lees ook: Google lanceert betaalde AI-chatbot: Gemini Advanced kost €22 per maand en moet de strijd aangaan met ChatGPT
Het is algemeen bekend dat taalmodellen op basis van generatieve artificiële intelligentie (AI) fouten maken. Maar volgens de mede-oprichter Jared Kaplan van softwarebedrijf Anthropic is dat minder problematisch dan je op het eerste gezicht zou denken.
Als AI-chatbots zo geprogrammeerd worden dat ze helemaal geen fouten mogen maken, kunnen ze alle informatie waarmee ze gevoed worden in twijfel gaan trekken, zei Kaplan afgelopen weekend tijdens een conferentie van zakenkrant The Wall Street Journal. Daarmee zouden chatbots volledig nutteloos worden, stelt hij.
Hallucinaties, ofwel fouten die een AI-model maakt door verkeerde aannames of fouten in de programmatuur, komen af en toe voor. Dat moet je accepteren om een AI-systeem bruikbaar te houden, aldus Kaplan. “Als je deze systemen traint om nooit te hallucineren, worden ze heel erg bezorgd over het maken van fouten. Dan zullen ze elke vraag beantwoorden met: ‘Ik weet de context niet’.”
Hoewel Kaplan hallucinaties ziet als een noodzakelijk kwaad, voorziet hij uiteindelijk een toekomst voor AI-software waarbij er geen verzinsels worden gegenereerd. Maar een AI-platform maken dat helemaal niet hallucineert, is makkelijker gezegd dan gedaan, stelt hij.
AI-bots moeten balans vinden tussen bruikbaarheid en het produceren van onbetrouwbare informatie
De AI-sector probeert een balans te vinden tussen de mate waarin systemen hallucineren en de bruikbaarheid van producten.
Vorig jaar kwam Gemini, het AI-model van Google, in opspraak omdat het overduidelijk foutieve antwoorden gaf op simpele vragen. Tegelijk ging de chatbot niet in op controversiële vraagstukken. Gebruikers werden hiervoor doorgestuurd naar Google's zoekmachine.
Startup Anthropic worstelt zelf al langer met de nauwkeurigheid van AI-modellen en de ethische dilemma's die generatieve AI meebrengt. Eerder dit jaar voerde het bedrijf een intern onderzoek uit waarin AI-modellen werden ontwikkeld die met opzet tegen mensen konden liegen. De uitkomst ervan suggereerde dat dit soort toepassingen mensen kan misleiden en veiligheidsprogramma's kan omzeilen.
Kaplan richtte Anthropic samen met voormalige werknemers van concurrent OpenAI op. Dit uit onvrede over de gang van zaken bij de maker van de populaire bot ChatGPTr.
Anthropic stelt zichzelf op als een AI-bedrijf dat de nadruk legt op ethische waarden en veiligheid.
Bij concurrent OpenAI wordt het hallucineren van ChatGPT niet per se gezien als iets slechts. CEO Sam Altman ziet de fouten maken die zijn AI-producten maken als een pluspunt, dat de creativiteit van de gebruiker stimuleert.
“Als je iets wilt opzoeken in een database, dan hebben we daar al goede oplossingen voor. Maar deze AI-systemen kunnen met nieuwe ideeën komen en creatief zijn. Dat is een groot gedeelte van de kracht”, zei Altman afgelopen jaar tijdens een conferentie in San Francisco.